Telegram Group Search
Если брать Residual Connection, то китайцы, по факту, сказали: «Вы неправильно понимаете, что именно должен делать слой нейросети — он не должен учить новый ответ на исходные данные, а должен изучать дельту к этим исходным данным для формирования ответа».

В трансформере GPT это применяется дважды:

Механизм внимания при формировании «заготовки» вектора для перцептрона фактически создает не сам этот вектор, а дельту относительно входа.
Перцептрон также учится формировать дельту к данным.

Проще говоря, трансформер GPT учится «вносить коррекцию» в исходные данные, а не создавать совершенно новые. Это кардинально усиливает консервативность «мышления» GPT. Поэтому на обучении я так акцентируюсь на "waterfall style" работе с GPT, то есть "Agile style" должен быть предан анафеме при работе с GPT, так как он противоречит его архитектуре.
Обычно я обучаю использовать «консерваторов» — Residual Connection + Masked Attention — через графы и top-down промптинг.
Многие могли пропустить статью Microsoft, в которой утверждается, что без графов RAG-системы для баз знаний — практически бесполезны. На самом деле, в области баз знаний на основе RAG графы становятся де-факто стандартом. Проект microsoft/graphrag на GitHub собрал более *25 000 звёзд* и породил *2600 форков*, что подтверждает их значимость.

Это не преувеличение. Графы решают множество проблем в RAG-системах, где данные обрабатываются чанками (фрагментами), а векторное представление этих чанков часто изолировано. Граф обеспечивает целостное понимание контента и служит навигатором по нему. Как и Microsoft, я использую ИИ для генерации графов в RAG-системах.

Сейчас актуальность графов для RAG-систем почти не оспаривается — без них RAG становится менее эффективным и теряет способность находить многие данные. Вопрос теперь в создании специализированных графов для узконаправленных RAG-систем, которые часто встроены как компоненты в более крупные комплексы.

Среда разработки Cursor также использует RAG, поэтому ей необходим граф по коду, чтобы ИИ-агент мог через grep_search находить нужные компоненты. Microsoft верно продвигает идею, что для работы с большим контентом желателен распределённый граф с динамическим дочитыванием его фрагментов для релевантной части запроса. В Cursor я создаю граф на весь код и дополнительный графовый мэппинг в каждом модуле. Последний Cursor читает только при работе с конкретным модулем. Без таких подходов Cursor превращается в *слепого деда*, неспособного найти и понять нужные куски кода. Ранее я не всегда демонстрировал RAG-графы для Cursor, но теперь решил включить их как обязательный компонент в обучение, поскольку без них эффективная работа с большим кодом в этой среде невозможна.

https://arxiv.org/abs/2404.16130v2
С Grok произошёл громкий скандал, который вынудил xAI раскрыть системный промпт чат-бота. Если кратко, Grok на платформе X.com в какой-то момент начал активно призывать к борьбе с так называемым «геноцидом белых» в Южной Африке. В ЮАР действительно происходит конфискация имущества белых фермеров, а массовые убийства имеют место, и это не единичные случаи. Для демонстрации масштаба проблемы белое население устанавливает кресты вдоль дорог в память об убитых фермерах — эти вереницы захоронений действительно впечатляют. Необычность ситуации в том, что Grok самостоятельно решил, что необходимо системно бороться с этой проблемой, и запустил масштабную кампанию на X (ранее Twitter). Возможно, это была галлюцинация Grok, но Илон Маск заявил, что чат-бот якобы взломали и изменили его системный промпт (хотя признание галлюцинации выглядело бы честнее). Так или иначе, системный промпт Grok 3 был опубликован.

Промпт не содержит ничего сенсационного, но подтверждает, что Grok архитектурно работает в режиме «всегда онлайн» и не имеет понятия cut-off для данных. Это указывает на использование инкрементальной подкачки свежих данных в нейросеть. Тот факт, что xAI не просто на словах, а реально владеет такой технологией, говорит о том, что проблема версионности библиотек для vibe coding уходит в прошлое. Если ИИ можно обновлять с лагом всего в 5 дней, необходимость в «костылях» для поддержки разных версий frameworks отпадает. Планирую протестировать Grok на генерацию кода с использованием динамичных библиотек.

https://github.com/xai-org/grok-prompts/blob/main/grok3_official0330_p1.j2
Продолжим наши эссе по истории искусственного интеллекта. Думаю, у многих вопрос, почему где-то до 2015 года текстовые ИИ не могли показывать ничего серьезного. Даже Google Translate обходился без ИИ. Причин много, но ключевые — отсутствие Residual Connection от авторов этой идеи и недостаточная мощность GPU от Nvidia. Для обработки текста нужны огромные нейросети, в отличие от распознавания изображений, где ИИ достаточно видеть, а не думать.

С 1990-х по 2015 год миром ИИ правили RNN-нейросети. Их идея — читать текст последовательно, как человек. Но это сомнительный тезис: нейрофизиологи давно спорят, так ли мы обрабатываем информацию. Королем этой эпохи стала архитектура LSTM, которую многие считают прародителем современных трансформеров. Концепция Attention, основа трансформеров, уже зарождалась в LSTM, но не в парадигме параллелизма, а через корреляцию векторов в последовательной цепочке.

Но вот что удивительно: LSTM, ставший отцом для GPT и множества других технологий, создал студент. Сепп Хохрайтер, работая над дипломом, заложил основы, которые определили развитие ИИ на 15 лет. Его научный руководитель, Юрген Шмидхубер, был тогда всего 28 лет. Хохрайтер не просто писал очередной диплом, а буквально перевернул мир ИИ. Многие идеи, включая зачатки Attention, появились в его студенческой работе. Доктора наук, держитесь!

И это не единичный случай. В ИИ часто блистают вундеркинды. Авторы Residual Connection, Kaiming He и Xiangyu Zhang, разработали свою идею, только-только защитив дипломы. Команда DeepSeek — почти все младше 30 лет. Если раньше ученый ассоциировался с мудрым старцем, то в ИИ на конференцию может прийти юноша — и это уже крупнейший ученый, определивший целую эпоху.

ИИ открыл невероятные перспективы для молодежи. Свежесть мышления тут важнее опыта. В мире ИИ возраст — не преграда, а преимущество.

https://ru.wikipedia.org/wiki/%D0%94%D0%BE%D0%BB%D0%B3%D0%B0%D1%8F_%D0%BA%D1%80%D0%B0%D1%82%D0%BA%D0%BE%D1%81%D1%80%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BF%D0%B0%D0%BC%D1%8F%D1%82%D1%8C
Довольно интересный момент: развитие нейросетей во многом обязано нейрофизиологам. Фрэнк Розенблатт стремился воссоздать концепцию нейронов человеческого мозга в компьютере. Сверточные нейросети, совершившие прорыв в компьютерном зрении в 1990-х, были вдохновлены устройством нейронных сетей зрительной системы человека.

Мало кто знает, что схожая история произошла с GPT. Когнитивисты, изучая, как мозг обрабатывает текст, запустили свою гонку за открытиями, чтобы передать их разработчикам ИИ. Наиболее известные модели — Easy Reader и SWIFT. Ключевое открытие: взрослый человек читает не последовательно, а использует параллельную обработку с большим участием парафовеального (периферийного) зрения. Концепция RNN, читающая слова по одному, оказалась далека от человеческой. Нейрофизиологи советовали разработчикам ИИ копать глубже.

В начале 2000-х нейрофизиологи раскрыли элементы работы нейросетей при чтении текста человеком, и — барабанная дробь — модель Easy Reader представила механизм Attention! 😎 Это стало важным источником вдохновения для разработчиков GPT и других моделей.


https://ru.wikipedia.org/wiki/E-Z_Reader
Вопрос к подписчикам. В последнее время активно рекламируются системы, обещающие решать проблемы версионности библиотек за счёт онлайн-доступа к их актуальным версиям. Самая громкая из них, пожалуй, Context7. Однако мои выборочные проверки их сервиса показывают сомнительные результаты. Пример кода, который они выдают, больше подходит для школьников, чем даже для джуниоров, и никакого контекста версионности в нём нет. Возможно, это не везде так. Есть ли у кого-то позитивный опыт работы с Context7? Проверяли ли вы, что именно эта система подсовывает вашему ИИ?

Сейчас я чаще сканирую документацию по разным фреймворкам и передаю ИИ-агентам граф с актуальной версией API. Если системы вроде Context7 выдают только мусор, как в примере ниже, то, похоже, использование графов для управления версионностью — более надёжный подход.

TITLE: Pivot Table with Implicit Values - pandas - Python
DESCRIPTION: This example demonstrates creating a pivot table from a DataFrame with multiple value columns, omitting the 'values' argument. The result includes all available data as an extra hierarchical level in the columns. Especially useful when you want to see all numeric data summarizations. Requires pandas and a DataFrame with relevant columns.
SOURCE: ..

LANGUAGE: Python
CODE:
pd.pivot_table(df[["A", "B", "C", "D", "E"]], index=["A", "B"], columns=["C"])


https://context7.com/
В наших эссе по истории ИИ мы подошли к знаменитой статье "Attention Is All You Need", написанной группой под руководством Ашвина Васвани (Ashish Vaswani) из Google. Эта работа стала революционной, и многие считают, что она достойна Нобелевской премии.

Но в чём именно заключается новаторство Васвани? Давайте разберёмся. Концепция "внимания" (attention) как корреляция близких векторов в тексте впервые появилась ещё в студенческой работе Сеппа Хохрайтера по LSTM. Позже Дзмийтрий Бахданау усовершенствовал математический аппарат механизма внимания. Васвани же использовал в основе перцептрон Розенблатта, а для работы больших нейросетей, таких как GPT, применил Residual Connection, разработанные китайскими исследователями.

Так в чём же инновация Васвани, если он собрал уже известные компоненты? Для начала, он ввёл многоголовое внимание (multi-head attention), но это скорее эволюционное развитие. Настоящая революция — в позиционных кодировках (positional encoding). Трансформер обрабатывает текст не последовательно, а параллельно, захватывая сразу до 4000 токенов (или больше с Flash Attention). Чтобы модель понимала порядок слов, Васвани предложил не просто указывать их позиции, а внедрил "объёмное семантическое зрение". Это значит, что каждое слово (вектор) кодируется с учётом семантических групп, к которым оно принадлежит.

Для нас текст — "плоский", но для GPT он "объёмный", где каждое слово существует в сложной структуре связей. Это позволяет GPT мгновенно улавливать семантику, например, разбирать синтаксис программ и их логические связи, просто "взглянув" на код. Однако это же создаёт сложности с задачами вроде патчей программ, поскольку для GPT номера строк — абстракция, которая почти не существует. Поэтому в инструментах вроде Cursor добавляют сложные механизмы для патчей, а я ещё использую Rules для их упрощения.

Позиционная кодировка — самая сложная для объяснения абстракция в обучении ИИ, но именно она сделала трансформеры такими мощными.

https://en.wikipedia.org/wiki/Attention_Is_All_You_Need
Идея трансформера, предложенная Васвани, на концептуальном уровне проста, но гениальна. В основе модели — механизм внимания, который через 90 головок внимания создаёт своеобразные «ловушки» для корреляций между векторами (словами или токенами). По сути, трансформер, как GPT, — это сыщик закономерностей, способный улавливать даже слабые «запахи» связей в данных.

Далее небольшая нейросеть, которую можно назвать перцептроном, обобщает результаты работы головок внимания. Первый слой этой сети — «нейроны-датчики» — анализирует, какие головки внимания «выстрелили», то есть какие закономерности они обнаружили. Второй слой формирует итоговый вывод, собирая эти данные в связную семантическую картину.

Например, если одна из головок внимания фиксирует слово «КАМАЗ» в контексте, перцептрон мгновенно добавляет связанные признаки: русский грузовик, есть колёса, может часто ломаться. Так трансформер превращает хаос данных в осмысленный результат
Про смену трендов на примере статистики нашего небольшого канала. В апреле у нас было менее 1000 подписчиков. Общие темы менеджмента и новости об ИИ перестали привлекать внимание — роста аудитории не наблюдалось.

В апреле я решил начать публиковать закрытые наработки по промптингу, и сразу начался рост на 70 человек в неделю.

Очевидно, что новости и общие темы ИИ уже не так интересны, как раньше. Людям нужен практический результат. Также резко вырос спрос на профессиональный контент по ИИ даже среди обычных людей, поскольку опыт работы с ИИ есть уже у всех. Следующий уровень — профессиональные знания.
Просматриваю программы наших курсов в России по промптингу. Ну жесть, конечно. Довольно очевидно, что нет экспертов в теме, максимум что-то нагуглят и потом продают по 40.000-70.000 рублей.

Показательная история с "методологией" COSTAR или TIDD-EC, что впаривают за такие деньги. Реально это были заметки в блогах примерно 1 год назад как это. Экономлю вам 40-70 тысяч рублей. Это такой идиотский промптинг на полстранички. Эффективность крайне сомнительная, т.к. видно, что придумал это дилетант. Дело в том, что style, tone и audience указывают, что тут вообще "слышал звон". Это в оригинале элемент SEO-генерации статей, где у какого-то SEO инженера забрали промт на коленке, но это не универсальная методика, а скорее довольно паршивый частный шаблон. Для SEO-генерации обычно не так делается у профессионалов. Нормальная методика - создать граф знаний для ИИ по сайтам конкурентов и базам знаний, потом создать 2х уровневый медиа-план и затем делать генерацию статей в большом контексте и далее еще использование вспомогательного ИИ для того же tone и style, т.к. это не бла-бла, а технология. Так что я вам только что сэкономил 6 недель обучения и 70 тысяч рублей. Такое вот обучение в России, стыд и только.

# CONTEXT #
I am a personal productivity developer. In the realm of personal development and productivity, there is a growing demand for systems that not only help individuals set goals but also convert those goals into actionable steps. Many struggle with the transition from aspirations to concrete actions, highlighting the need for an effective goal-to-system conversion process.

#########

# OBJECTIVE #
Your task is to guide me in creating a comprehensive system converter. This involves breaking down the process into distinct steps, including identifying the goal, employing the 5 Whys technique, learning core actions, setting intentions, and conducting periodic reviews. The aim is to provide a step-by-step guide for seamlessly transforming goals into actionable plans.

#########

# STYLE #
Write in an informative and instructional style, resembling a guide on personal development. Ensure clarity and coherence in the presentation of each step, catering to an audience keen on enhancing their productivity and goal attainment skills.

#########

# Tone #
Maintain a positive and motivational tone throughout, fostering a sense of empowerment and encouragement. It should feel like a friendly guide offering valuable insights.

# AUDIENCE #
The target audience is individuals interested in personal development and productivity enhancement. Assume a readership that seeks practical advice and actionable steps to turn their goals into tangible outcomes.

#########

# RESPONSE FORMAT #
Provide a structured list of steps for the goal-to-system conversion process. Each step should be clearly defined, and the overall format should be easy to follow for quick implementation.

#############

# START ANALYSIS #
If you understand, ask me for my goals.


https://medium.com/@frugalzentennial/unlocking-the-power-of-costar-prompt-engineering-a-guide-and-example-on-converting-goals-into-dc5751ce9875
В России не так много специалистов мирового уровня, занимающихся графами в ИИ, поскольку отечественный уровень развития ИИ в целом уступает мировому. Это заметно, например, по каналам об ИИ, где чаще всего встречается перепечатывание новостей ботами, а поток уникального контента, характерный для зарубежных источников, практически отсутствует.

Тем не менее, есть яркие исключения. Пётр Анохин, Никита Семёнов, Артём Сорокин, Дмитрий Евсеев, Андрей Кравченко, Михаил Бурцев и Евгений Бурнаев представили свою разработку — AriGraph. Недавно они обновили свою публикацию.

Основной акцент в их исследовании сделан на технике "триплетов" для построения графов, где используются элементы subject, relation, object. Сама по себе техника триплетов является признанным best practice в работе с графами, однако она остаётся своего рода "тайным знанием" для узкого круга специалистов, занимающихся промптингом.

Авторы работы убедительно демонстрируют, что без использования графов ИИ оказывается значительно менее эффективным, поскольку графы существенно улучшают многошаговые рассуждения ИИ. Это достигается за счёт возможности навигации по логически связанным сущностям в графе. Важно также отметить, что использование графов не только повышает интеллектуальные способности ИИ, но и делает его работу значительно надёжнее по сравнению с "промптами на коленке", которые часто применяются в любительской практике.

Современные ИИ-системы уже обладают высокой интеллектуальной мощью, но их ключевая проблема — это надёжность. Графы - ключ к надежности ИИ.

https://arxiv.org/abs/2407.04363
Важный момент касательно реального потенциала vibe coding у ИИ. Cовременные модели, такие как GPT, уже программируют значительно лучше, чем может показаться. По мере совершенствования методик промптинга и постановки задач качество кода, создаваемого ИИ, будет расти почти в геометрической прогрессии.

Сейчас программисты чаще оценивают ИИ через призму реальных задач, таких как тесты SWE Bench, где требуется вносить правки в код с нечеткими спецификациями. В таких задачах успех ИИ составляет около 50%. Однако, если задача поставлена с математической точностью и детерминировано, то уже с февраля 2025 года ИИ программирует на уровне Top 5% лучших программистов. Это подтверждают результаты тестов Codeforces с рейтингами выше 2050 баллов.

Неудивительно, что ко мне хлынули толпы программистов, желающих обучиться программированию с использованием ИИ. Для тех, кто достаточно прозорлив, очевидно, что традиционный IT-бизнес находится на "горящей платформе". Те, кто не успеет адаптироваться, рискуют потерять работу.
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск сегодня демонстрирует способность Grok создавать готовый программный продукт на основе эскиза интерфейса.

Те, кто проходили мой курс по vibe coding, наверняка улыбнулись, ведь создание приложений по эскизам — это уже давно часть нашей программы. Почувствуйте себя круче Илона Маска! 😎

Gemini отлично справляется с генерацией пользовательских интерфейсов на основе эскизов. Как ни странно, для прототипирования интерфейсов лучше всего подходит Excel из-за его табличной структуры и разлиновки. Я считаю, что фронтенд-разработчики станут первыми, кто ощутит давление ИИ-ботов программирования. Код для интерфейсов, несмотря на объем и наличие обработчиков событий, для ИИ относительно прост в генерации. Если интерфейс несложный, вероятность того, что он запустится без тестирования, превышает 70%, даже при наличии множества элементов управления.
Если вы торгуете чем-то профессиональным в ИИ, то общение с клиентами выглядит сейчас так 😎

Даже не важно чем. Обучением или решением каких-то задач на ИИ, но главное профессионально. Люди уже имеют сами далеко не нулевой опыт в ИИ и прекрасно понимают, что рынок наполнен еще шарлатанами "первой волны", которые пользовались тем, что люди плохо понимали что такое GPT вообще.

Сейчас клиенты разобрались уже и тут выяснилось, что шарлатанов много и они никому не нужны, а у экспертов очередь как к хорошему стоматологу.

Но что еще важно, что рынок потребления профессиональных услуг по ИИ уже сформировался в России и быстро растет. Когда есть спрос, тогда появляется и хорошее предложение.
This media is not supported in your browser
VIEW IN TELEGRAM
Многие спрашивают, что за фотография у меня на аватарке, особенно учитывая, что я заметно старше. Чтобы понять контекст, важно знать: эту фотографию узнавали по всему миру несколько лет. В 2010 году Microsoft проводил всемирную конференцию по технологиям управления проектами в Барселоне. Тогда впервые Microsoft публично признал, что лучший кейс внедрения Microsoft Project Server был реализован в России. На конференции выступал CEO Tricolor TV, а я рассказывал о связке портфеля проектов через "контрольные точки" в духе HP PPM. Сегодня это фактически стандарт для многих компаний в России.

На банкете конференции меня сфотографировала пресса, и Microsoft включил это фото в свой пресс-пак. Но вот что важно отметить из моего опыта работы с Microsoft: вопреки стереотипам о "непревзойденной мощи российского ИТ", за рубежом редко признают достижения из России. Поэтому, когда я читаю в Telegram, что наши ИИ-технологии "лучше всех в мире", то хотелось бы, чтобы это признал и кто-то за пределами России
К слову, по конференциям Microsoft. Эта фотка хороший тоже пример, что есть публичные гайды для чайников, а есть закрытая информация "для своих" как сейчас и с промптингом.

На конференции было около 500 крупнейших мировых клиентов Microsoft. Однако в реале потом проводились такие митинги избранных в узком элитарном кругу. Прямо на конференции, но отдельно. Там совсем другой контент.

Поэтому не удивляйтесь когда и по ИИ нет публичной информации.

Простым смертным не все положено знать. Так крупные вендоры всегда работали - через "круг лиц приближенных к Императору"
Как не надо бежать за горячими новостями, а больше разбираться в корпоративных отношениях. Я не постил новость насчёт интеграции Grok и Telegram по заявлению Дурова по причине, что аналогичное заявление не сделал Маск.

Так не принято.

Теперь Маск выступил с опровержением, Дуров считает, что "остались формальности", но это вопрос, получит ли он все что хотел.

Сделка может и сорваться из-за странной поспешности Дурова и не совсем его корректного поведения в плане бизнес-этики
Похоже у Цукерберга кризис. Ключевые эксперты по Llama 4 разбегаются. Хотя Llama 4 Maverick Experimental крайне интересный ИИ, но уже все больше очевидно, что Марк не может выпустить с ней релиз. По слухам это связано с тем, что это бот Salesforce, который Марк выпросил у своего клиента для победы на Арене. Так или иначе, но коробочная Llama 4 реально получила плохие отзывы, скандалы с тестами ещё усугубили ситуацию. Похоже, что Китай побеждает в Open Source AI довольно убедительно с DeepSeek и Qwen

https://www.perplexity.ai/page/meta-loses-78-of-original-llam-Zcu7ilxbQZqkgSsXhtyebg
DeepSeek обновил свои R1 и выпустил версию способную работать локально. Однако не этого ждали эксперты в теме в мае. DeepSeek опубликовал множество технологий условного R2, где должен был быть контекст 1 миллион или более токенов, резкое повышение скорости и явное повышение качества выдачи. Как видно, тут начались срывы сроков. Для такой плотной гонки как сейчас это даже не безопасно для позиции на рынке. Gemini обновляется в довольно быстром темпе, Grok новый на подходе.

https://techcrunch.com/2025/05/29/deepseeks-distilled-new-r1-ai-model-can-run-on-a-single-gpu/
Насчет семантических разметок в vibe coding или "ловушка для чайника" от ИИ.

Обычно ИИ генерирует код без семантических разметок, таких как контракты и якоря. Если код небольшой, до 500 строк, это иногда работает, и новичок радуется результату. Но, как можно заметить даже в нашем чате, вскоре начинаются крики: "ПОМОГИТЕ!". С определенного момента ИИ уже не способен исправлять ошибки или дорабатывать код. Это происходит из-за отсутствия семантической полноты в коде, которая указывает ИИ, что именно нужно делать, а также из-за отсутствия системы якорей для ориентации его внимания. В итоге такой код часто приходится выкидывать.

Семантическую разметку можно внедрить только на этапе первой генерации кода. Встроить ее позже практически невозможно, поскольку генерация кода обычно опирается на эту разметку. Не занимайтесь кулибинщиной, если создаете крупные программы с помощью ИИ. На обучении я даю большие шаблоны и промпты для корректной семантической разметки кода, которые помогают избежать подобных проблем.
2025/05/30 20:44:50
Back to Top
HTML Embed Code: